9 - Mathematische Grundlagen zu Künstliche Intelligenz, Neuronale Netze und Data Analytics II [ID:30602]
50 von 295 angezeigt

Wir wollen jetzt erstmal eine Wiederholung von dem Gedankengang vorher machen.

Wir hatten ja gesagt, man kann auf alle möglichen Arten über rekorente Netze nachdenken, aber

diese Art Darstellung, wie wir sie jetzt hier sehen, hat was besonders Elegantes, weil die

nämlich eigentlich alle Fehler vermeidet, die die Darstellung vorher hatten.

Und das ist eigentlich ein ganz besonderer Punkt, weil wir jetzt hier in der ersten

Art Darstellung die Inkonsistenz von Vergangenheit in Zukunft, Asymmetrie in den Variablen

untereinander, was eben vorher in den anderen Strukturen alles vorkam, die ja erweiterte

Input-Output-Modelle waren.

Das hier ist eben kein Input-Output-Modell mehr, sondern es beschreibt die Zeit einfach

als Ablauf.

Und alle Kompliziertheit, die wir in den Beobachtungsdaten nicht erklären können, liegen hier halt

in den hitten Variablen von der Zeit.

Auf den Punkt werden wir später nochmal im Detail zurückkommen.

Dann hatten wir jetzt wieder dieses Universal Approximation Theorem und damit kann man es

aber noch nicht lösen.

Das ist ja nur eine Existenzaussage.

Zum Lösen ist der wichtigste Punkt am Anfang gewesen, dieses Teach-off-Hossing hier zum

Matten-Volligung.

Der wichtigste Punkt hier war gewesen, um das lösbar zu machen, dass man dieses Teach-off-Hossing

einbringt.

Was hilft, dass man, egal wie sinnlos die Staton-Sician-Matrix in der Vergangenheit bei der Identialisierung

ist, dass trotzdem eben die beobachteten Variablen immer auf der beobachteten Traktorie

hält.

Das ist aber jetzt so gut, das kann man dann tatsächlich lernen.

Der Nachteil ist, dass man natürlich jetzt wieder eine Asymmetrie zwischen Vergangenheit

und Zukunft hat, weil diesen Trick kann ich natürlich in der Vergangenheit machen, aber

nicht in der Zukunft.

Von daher würde ich hier genau wieder das zurückbringen, was ich eigentlich vermeiden

wollte.

Der Punkt, um das zu umgehen, ist eben, indem man sagt, wenn ich das zur Konvergenz lane,

also auf einen sehr kleinen Fehler lane, dann sind die grünen Linien hier natürlich unnötig.

Damit habe ich auch eine Lösung der ursprünglichen Aufgabe, die ich lösen wollte.

Diesen Punkt, nämlich, dass man eine nicht lösbare Architektur in eine etwas größere

Einbettung, die im Konvergenzpunkt dann auf das andere zurückfällt, die wird man im Laufe

der Zeit noch öfter gebrauchen.

Jetzt kommen wir dann eben zu dem Punkt zu sagen, gut, hier hätten wir also jetzt eine

Aufgabe, die wir lösen können.

Deswegen können wir die mal vergleichen mit dem E10M.

Mit der Frage, ist irgendwas hier von überlegend dem anderen?

Die Antwort ist ganz klar ja, Hartz N ist überlegend, weil wir beim E10M in der Vergangenheit

zwei Matrizen lagen, die sich die Aufgabe teilen, eine gute Lösung zu machen.

Und in der Zukunft haben wir plötzlich nur noch eine.

Während beim Hartz N in der Vergangenheit, wie in der Zukunft nur eine Matrix vorkommt,

das heißt, ich habe in der Vergangenheit die Matrix gelernt, die es braucht, um die Dynamik

zu erstellen, die ich ja dann noch in Zukunft weiterverwenden kann.

Also ich wüsste nach wie vor keinen zwingenden Grund an dieser Grunddarstellung, die hier

steht, irgendwas ändern zu wollen.

So, und weil das eben so ist, dass das Ding hier nicht sieht, auf welchem Zeitfenster es

sitzt, kann ich nicht hingehen und das einfach auf einem kurzen Zeitfenster so einsetzen,

weil das Netzwerk wüsste ja dann gar nicht, dass es eine An-No-Lösung produzieren soll,

Zugänglich über

Offener Zugang

Dauer

00:31:56 Min

Aufnahmedatum

2021-04-08

Hochgeladen am

2021-04-08 11:26:57

Sprache

de-DE

Einbetten
Wordpress FAU Plugin
iFrame
Teilen